查看原文
其他

AI成杀人武器,这锅工程师该不该背?

2018-04-09 AI另一面 AI前线

策划编辑 | Vincent
编译 | Debra,Vincent
AI 前线导读:人工智能自诞生起,就被各国军方看上,既能够造成大规模杀伤,又可以不损失人类的一兵一卒,简直是最完美的“杀人武器”。可是,AI 研究者们不愿意让自己的研究成为杀人的武器,在他们看来:人工智能应该要造福世界的。一旦 AI 被用于杀人,这些终其一生研究人工智能的专家、学者也就成为了 AI 杀人兵器的帮凶,但是有些时候,他们别无选择。

更多干货内容请关注微信公众号“AI 前线”,(ID:ai-front)
从一句“不作恶”开始···

AI 越来越多地被全球的军事组织用于攻击性和防御性武器的制造。上周,一些 AI 研究人员开始对两个 AI 军事合作项目进行反击:谷歌与五角大楼的军事武器研究合作,韩国 KAIST 大学与韩和商社合作生产进攻性机器人。这引起了关于工程师会对未来 AI 技术使用产生多大影响的讨论。

在硅谷,《纽约时报》公布了数千名谷歌员工反对该公司的五角大楼军事 AI 研究项目 Project Maven 的内部请愿书资料。此项目旨在利用计算机视觉算法分析大量军事图像和视频资料。

谷歌的员工希望该公司停止与美国政府的类似合作,以下为他们的内部请愿书:

AI 引起的对偏见和 AI 武器的担忧与日俱增,公众对谷歌的信任已经在下降。这份合约让谷歌与 Palantir(帕兰提尔,硅谷科技公司)、Raytheon(雷声)、General Dynamics(通用动力)站到同一阵营,微软和亚马逊等其他公司的加入也并不能减小谷歌加入这一项目的风险。这与谷歌的传统,它的座右铭“Don’t Be Evil”,以及融入数十亿用户生活的愿景是相悖的。

在韩国,韩国高等学府韩国科学技术高级研究院和大型集团韩和商社(Hanhwa )制造的进攻性机器人也引起了众怒,该集团是韩国最大的军需品生产商。全球数十家 AI 机构、50 多名领先 AI 研究者,包括 Geoffrey Hinton、Yoshua Bengio、JürgenSchmidhuber 在内联名反对其生产自动化武器的计划:

在联合国正在讨论如何遏制自主武器对国际安全造成的威胁的时候,令人遗憾的是,像 KAIST 这样的著名机构竟然希望加速军备竞赛来发展这种武器。因此,我们公开声明,我们将抵制与 KAIST 的所有合作,直到 KAIST 校长做出我们正在寻求但还未给出的保证,即该中心不会开发真正意义上在人类实际控制范围之外的自动化武器。

事实上,这些所谓的“杀人机器人”并不是我们最应该的担心的,重要的是,这些明显具有侵略性技术的研发决定权掌握在研究者手中,他们有权选择参与或拒绝这样的项目。该领域的另外一个更大的挑战,是所有打着提高人类生活水平旗号的 AI 研究,几乎都围绕为计算机创造认知、预测、决策和没有人类干预情况下采取行动的新能力而展开。对于研究者来说,最好的算法是理想化和普适的,这意味着在经过调整和更多训练数据之后,它们适用于所有目的。

实际上,我们并没有办法阻止这些新发现的能力应用于攻击性武器。即使世界上最好的研究人员拒绝研究这些攻击性武器的技术,其他人也可以轻松地将这些经过验证的模型“现货供应”,并将其直接应用于新的武器。这并不是说用于战争的武器没有其他问题需要解决,但开发核心 AI 功能是启动这些应用的关键。

研究者们别无选择

人工智能是一把令人头痛的双刃剑,这种技术可以被用于正面和负面的应用。核能源就是一个很好的例子,它可以通过核磁共振图像大规模地改善人类的健康状况,提供核动力反应堆的动力,但用它制作的炸弹,一颗就能杀死数十万人。

但 AI 比核武器更难管理,后者需要专用的硬件来展示其军事力量,但 AI 完全不需要。

对于 TPU,AI 的关键创新在于数学和软件,而非硬件性能优化。今天,我们可以用市场上买到的无人机,一个机器枪支触发器,以及从 GitHub 下载的计算机视觉算法就可以构建一架自动化杀人无人机。它可能并不完美,但它至少是“能用的”。这样一来,它就像生物武器一样,只要用标准的实验室设备就能生产。

除非完全停止所有的人工智能开发研究,否则这项技术将会继续发展,这意味着我们完全有可能用之制造武器并将它们发射到敌人的阵营中去。

换句话说,AI 研究人员会杀人,不管他们喜欢与否。

在这种背景下,除了阻止 Google 与五角大楼合作,各组织的正确做法首先应该是鼓励 Google,这个华盛顿最有效的游说团队之一,去推动更多的国际谈判禁止这些进攻武器的使用。Alphabet 前任董事长埃里克施密特担任国防创新委员会主席,他完全有能力让政策决策者了解这些担忧。即使在冷战最紧张的时候,这种谈判也能有效控制生物武器、化学战争,甚至外太空武器的扩散。因此,我们有理由相信成功不是遥不可及的。

AI竞赛在反对声中不断蔓延

尽管反对的声音声势浩大,但各国出于各自的考虑仍然没有停止手中的工作,AI 竞赛已经蔓延开来。事实上,早在 2015 年,包括当时还健在的斯蒂芬霍金教授和 SpaceX 创始人埃隆马斯克在内的 1000 多名科学家、研究人员和商界领袖就曾联合签署了一封公开信,警告人为智能武器的危险。

“只要有一方重要的军事力量推动人工智能武器的发展,全球军备竞赛实际上是不可避免的,而且这一技术轨迹的终点是显而易见的:自主武器将成为未来的卡拉什尼科夫(Kalashnikov)”信中说。

然而,至今俄罗斯武器制造商卡拉什尼科夫对杀人机器人的研究还在继续,据说,他们研发的机器人能够发现目标并进行自主决策。这意味着,与现在的具有一些自动化功能,但需要人类命令的无人机不同,这是一批完全能够独立操作的机器人,完全自主作出决定!

其实,对于战争和技术发展的担忧已经不是新鲜事了,在历史上,化学武器、核武器等研究都曾禁止校园和机构参与,20 世纪 50 年代的帕格沃什会议被视为科学家对新兴技术,即核能源担忧的一次会议。

工程师在AI军备竞赛中扮演什么角色?

自古以来,任何前沿技术的发展往往都是一把双刃剑,有时候给人类带来更多便利,有时候也会夺人性命。但技术本身是中性的,真正让它有了善恶属性的是使用它的人。技术被恶意利用产生的恶果,人类已经从化学武器、核武器等带来的毁灭性后果中尝到过,而人工智能也是如此。当 AI 被恶意利用时,我们应该思考如何阻止或防止它产生更大的危害。

但 AI 的“黑箱子”属性让它本身就是一个不透明的存在,即使是工程师也并不完全了解算法是如何工作、如何做出决策的;另外,AI 算法需要使用大量训练数据,而一次训练产生的结果并不能代表所有的情况,产生偏见不可避免。因此,开发人员在开发 AI 算法时,算法背后的公平性、责任性、透明性是非常重要的问题,将于今年 5 月份生效的 GDPR 已经在这方面做出努力,相信会在推动 AI 算法透明化上起到不小的积极作用。

另一方面,一股由科技界、学界发起的“勿让人工智能为恶”的风潮已经开始蔓延,这就是 FAT ML,即公平(Fairness)、责任(Accountability)、透明性(Transparency)in Machine Learning(机器学习) 这几个英文单词的缩写。这股风潮强调 AI 研发过程中的公平、透明,以及研发参与过程中每个人应该担负的责任。随着 FAT ML 的理念得到越来越多人的支持,社会各界在人工智能的开发和应用方面拥有更多发言权,相信这个问题会得到越来越多的重视。

争论仍在持续,但我们应该意识到,所有的 AI 最新成果都有可能带来进攻性武器性能的提升。我们面对这个问题的正确做法是正视而不是逃避。我们需要共同建立战争道德的防线,防止 AI 带来的负面作用不仅是研究人员、政策制定者的责任,更是每个人的责任。

尾声

还记得《钢铁侠》电影第一部的场景吗?小罗伯特唐尼扮演的托尼·史塔克是著名军工企业:史塔克工业的拥有者,富可敌国。电影中的一个片段是他前往中东向美国军方出售新款导弹,交易达成,大家都很满意,然而途中负责护送他的小分队却遭到了恐怖分子的袭击,当托尼醒来的时候,发现自己置身于恐怖分子藏身的洞窟,而周围摆满了生产自斯塔克工业的各类武器。

作为一个军火商,他当然可以用“维护世界和平”这样的幌子来大肆敛财,但是当他的头被恐怖分子用自己公司生产的武器指着的时候,他才明白:不论你想不想用自己的科技杀人,你都会被迫成为帮凶,因为你别无选择。

参考文章:

https://techcrunch.com/2018/04/05/should-ai-researchers-kill-people/

今日荐文

点击下方图片即可阅读

Apache Hadoop 3.1.0 重磅发布,终于支持 GPU 和 FPGA 了!


专栏推荐

人工智能时代,如何快速且有效地入门?需要哪些数学基础?怎样掌握机器学习主要方法?

工学博士、副教授王天一在他的里,会带你巩固人工智能基础,梳理人工智能知识框架,了解人工智能的最佳应用场景。新注册用户,立减 30 元。欢迎点击图片试读。

点「阅读原文」,免费试读或订阅

AI前线紧跟前沿的AI技术社群


欢迎读者朋友们给我们留言和点赞。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存